人工智能成长进行时
ChatGPT的热潮仍在持续,生成式人工智能步入落地应用阶段,大模型在成长过程中如何帮助管理者提升管理和决策能力,成为人工智能领域未来的探索方向之一。
——编者
文|刘古权 赵育慧
关键词:大模型;ChatGPT;人工智能;人机协同;智能时代
大型语言模型( Large Language Models,简称大模型)指基于海量数据训练、拥有巨量参数的模型。这类模型通常具有较深的网络结构、较多的神经元及数亿到数千亿个参数,这些参数可以通过训练过程自动调整以捕获输入数据中的复杂关系,在生成流畅、连贯和丰富的自然语言文本方面表现出卓越的能力,可以适应广泛的下游任务。
人们在互联网上的搜索、社交媒体上的评论、购物网站上的浏览,都在不知不觉中产生了大量数据,这些数据承载着海量的信息,大语言模型在数据的海洋中应运而生。
2022年11月,OpenAI公司发布ChatGPT,这一应用迅速引发全球关注。2023年3月14日,OpenAI公司再次发布升级版大模型GPT-4,将强算力和强算法进一步优化组合,大幅提升大模型的预训练生成能力和多模态、多场景应用能力,再一次实现了人工智能领域的技术飞跃,并在全球掀起大模型发展热潮。
在ChatGPT“走红”三个月后,国内互联网企业百度、阿里巴巴、腾讯、科大讯飞等纷纷推出大模型产品。2023年5月发布的《中国人工智能大模型地图研究报告》显示,国内10亿级参数规模以上人工智能大模型已发布79个,各行各业的数字化需求正大力推进AI快速发展。未来,大模型将不断丰富其应用场景和功能领域。
尽管大模型在执行任务时表现出色,但它们在思维认知和自主意识等方面仍然存在很大的局限性,尤其在涉及特定领域知识或复杂推理的情况下,有时会生成不准确或不合适的答案。因此,大模型能够深入发展应用场景的一个重要基础是不断增加其领域知识和推理能力,以增强生成内容的准确性和管理决策的可靠性。
大模型的能力“涌现”现象
在机器学习中,模型的知识获取主要基于数据、参数和架构,这些参数经过不断调整和训练,使得模型能够从输入的数据中学习知识从而执行相关任务。大规模的数据集、合适的模型架构及有效的训练方法赋予大模型丰富的知识量,知识的充分积累使大模型拥有了“知道”的能力。这里的“知道”并不是指大模型能像人一样拥有真正自我认知的意识,而是指大模型能够通过模式识别、信息抽取、语义理解、知识迁移、自我监督等方式运用知识解决问题和执行任务。
人工智能技术的迅速发展使得数据量呈爆发式增长,海量数据是大模型进行训练从而生成内容的重要基础。通过分析和挖掘大规模数据,大模型能够积累不同领域的知识,这些知识最终成为大模型执行后续各种任务的基础。此外,大模型通过处理大量的上下文关联数据来学习如何理解信息之间的关联性,从而在对话过程中保持准确、连贯和自然。随着训练数据规模增加,大模型整合了来自不同领域的知识,从而能够提供更可靠、更全面、更多元的回答。在数据和知识进行持续积累的过程中,大模型会形成以往小模型所无法具备的高阶能力,可以看作是“量变引起了质变”,业界将这种现象称为大模型的能力“涌现”现象,而其具体发生机理目前还未能给出明确的科学解释。
作为首款在语言智能领域实现智能涌现的预训练大语言模型产品,ChatGPT 具备了精准的语义理解能力、强大的语言表达能力、严谨的逻辑思维能力。然而,尽管算力强大如ChatGPT,依然存在许多无法避免的不足之处,正如美国学者Ray Campbella所言:“AI不是一种魔法,而是一种技术,具有所有技术所固有的能力和局限性。”当在ChatGPT中输入某些极具误导性或明显错误的语句时,ChatGPT往往无法准确识别出问题本身是否真实正确,输出的内容可以明显看出具有大量的拼凑痕迹。这说明大模型其实并不具备理解问题本身意义的能力,因此才会“一本正经地胡说八道”,我们把这种生成内容与客观事实不符或前后矛盾的现象称为“机器幻觉”,这说明大模型实际上并不总是知道自己知道什么。
大模型通过数据分析和逻辑推理而知道的,其实只是不同输出结果发生的概率。在企业经营管理过程中,大模型可以作为一个强大的工具提供有价值的信息和建议,辅助管理者更好地进行决策,却无法独立做出可靠的决策。
大模型的三种缺陷
“有效的管理者都知道一项决策不是从搜集事实开始,而是先有自己的见解。”这是彼得·德鲁克所强调的管理思想,在大模型时代,这句话尤其适用。管理决策往往涉及未来的不确定性和结果的多样性,因此,纯粹依赖客观事实和现有数据是无法综合考虑所有可能发生的情况的。尽管管理决策需要充分的数据支持,但管理者的主观见解和个人判断是非常重要的,优秀的管理者需要在决策过程中基于客观数据并结合自己的独到见解和经验直觉得到最佳结果,确保决策与组织战略一致,而AI大模型所缺乏的恰恰就是这种洞察能力。
第一,大模型知识的相对固化性。这里的“固化”并不是指大模型的知识是一成不变的,而是指AI没有创造知识的能力,它们不能主动获取新知识或适应新情况,而是只能根据现有知识和训练数据来响应。大模型的数据通常来自互联网,并且大部分是由人类标注、直接或间接产生的,其中包括不准确和歧义性信息,这可能导致大模型在预训练过程中错误地相信一些虚假数据。因此,在面对未知的情况和问题时,大模型无法调取准确的数据和知识以支持决策。
第二,大模型生成内容的概率性。大模型本质上是一个用于计算文本出现可能性的概率模型,通过输入大量的多模态数据,利用统计学方法和概率分布模型,分析训练数据中的语言模式和上下文关联性,来预测接下来最可能出现的单词或句子,生成的文本虽然能够保证语句自然连贯,但由于模型本质上是通过调整训练参数来保证逻辑的合理性,并没有真正的理解能力,因此生成的内容具有一定程度的随机性和多样性,而企业决策需要管理者对问题的把握具有足够的全局性、洞察性和预见性。
第三,大模型没有自我意识。人工智能只是一种基于算法、模型和数据的技术,其工作原理是通过模式识别、统计学习和数据处理生成内容。大模型在分析数据、回答问题、执行任务等方面表现出色,但这些响应都是基于预先编程或训练出来的规则和模式。大模型没有意识体验和自我理解能力,不知道自己是一个模型,不了解自己的目的是什么,也没有自我认知和自主意识,只是根据输入数据生成内容而不能理解其意义,当然也无法确保自己的输出内容和决策结果是否真实可靠。不能为自己的决策负责任的决策者无法成为真正的决策者。
大模型通过训练和学习过程成功地获取了某些知识和能力,可以对输入数据进行处理、执行各种任务,并做出合理预测。然而,大模型的知识和能力是有限的,如果某个问题或任务超出了其训练领域,它们可能不具备理解和解决问题的能力。在人工智能领域目前的发展阶段,大模型虽然能够在很大程度上知道自己知道什么,但由于以上种种局限性,它们依然很难像人类一样独立做出有效决策。
大模型的决策能力不断提高
人类决策通常受到认知、情感、道德、伦理和文化等多种因素的影响,而人的心灵目前无法通过科学具体解释,但是内心的想法能够引导人类进行日常决策、行动等。对于企业管理者来说,综合考虑所有数据和信息并结合自己的知识、经验和直觉从而做出有效决策,这是大模型作为一种技术而难以获得的高阶思维能力,那么大模型应该如何优化和发展才能拥有一定程度的自我决策能力呢?
第一,保证数据规模和质量,发展领域大模型。大模型的知识是基于数据的,因此在处理新的数据和信息时可以不断更新和学习,以保持其知识的新鲜性和适应性。大模型的性能和效果在很大程度上依赖于训练数据的质量和数量,通用大模型广泛用于各个领域,对数据的要求则更高。为解决落地应用的难题,目前已有企业开始研发专门服务于特定领域的行业大模型和垂直大模型,如医疗、生物、法律、金融和管理领域。这些模型经过专业领域的训练,有效地避免了多领域数据融合的歧义问题,能够更好地理解特定领域的专业术语和问题,从而在很大程度上提高了大模型决策的可靠性。
第二,建立合作机制,发挥协同效应。协同效应指不同部分或个体共同合作时所创造的整体效果超过各个部分或个体单独行动的总和效果,即“一加一大于二”的效应。通过明确任务目标、建立信任机制并采取适当的协作策略,大模型可以与其他人工智能或人类合作,以了解和弥补自身知识和能力的不足,协作过程同时也是一种成长过程。例如,大模型可以发出请求以获取自身知识边界以外的信息或进行集体智慧计算,从而优化决策过程以寻求最佳决策结果。
第三,探索能力涌现机制,打开AI思维黑盒。复杂系统学科里已经对各种涌现现象做过很多相关研究,这种在宏观层面展现出微观个体无法解释的特殊现象,其具体发生机理至今仍是未解之谜。当模型训练数据达到一定规模后,就会突然出现能力涌现现象,而经过长时间训练后,模型还会出现“顿悟”现象,这类现象在一定程度上说明大模型看起来好像对训练数据有了理解能力,然而其运作方式和具体过程就像一个黑箱,目前尚无法给出确切的科学解释。未来或许有可能打开AI思维黑箱,从而进一步探索大模型的每一步决策过程,赋予大模型显性化的认知和理解能力,使得大模型的决策能力得到质的飞跃。
大模型决策的未来是人机协同决策
随着人工智能技术不断发展,人类在面临越来越复杂的环境时,需要借助更高效、智能的工具来进行决策,人机协同决策变得尤为重要。
AI大模型具有极强的学习迁移能力、多模态数据分析能力、自然语言处理能力、图像识别能力等适用于多种应用场景的能力,还能够学习各个学科、领域的知识。然而不可否认的是,人作为拥有认知能力的独立个体,能够学到的知识是有限的,并且获取知识的过程具有不可避免的局限性,而AI通过不断增强其算力几乎能够无限获取各个领域的数据,相当于拥有了群体知识和能力。尽管大模型在许多领域都表现出高度的智能化水平,但由于缺乏对问题本质的深刻理解和洞见,无法处理复杂、模糊、情感和伦理方面的问题。因此,大模型是不可能替代人类的,大模型的发展大势也不足为惧,我们要做的是顺势而行,理解并用好大模型。
人工智能在人类活动中发挥着越来越重要的作用,人机协同决策将成为未来组织决策的核心竞争优势。AI大模型的决策是群体决策中所有情况发生概率的最优结果,但由于AI没有自我意识只能作为人类的决策助手,而无法成为决策主体。在未来的人机协同组织中,人类可以基于AI的群体知识能力丰富自己的个人智慧,协同AI大模型将能够最大程度地赋能组织管理和决策。■
主要参考文献
[1] 孙柏林.ChatGPT:人工智能大模型应用的千姿百态[J].计算机仿真,2023,40(7).
[2] 童祁,胡晓萌.不要温和地走进与AI共生的时代——追问大模型时代的人机关系[J].上海文化,2023(8).
作者单位
刘古权 致远协同研究院
赵育慧 北京交通大学经济管理学院
|